L’ultimo mese è stato ricco di notizie piuttosto clamorose in cui il mondo della tecnologia ha incrociato le armi con la legge e i regolamentatori, dalla vicenda dell’arresto di Pavel Durov a quella del blocco di Twitter in Brasile passando per il sequestro (parziale o meno) dei fondi palestinesi su Binance.
Ma la tecnologia quindi è diventata cattiva o sono i governi e le autorità che stanno aggredendo le libertà del mondo digitale? E che cosa dobbiamo sperare per noi stessi, quali battaglie dovremmo intraprendere?
IL RAPPORTO NON LINEARE TRA LA LIBERTA’ E LA TUTELA
Come ha commentato Andrea Monti su Repubblica a proposito di Durov, al di là delle varie ipocrisie (la Russia e l’iran che difendono la libertà di parola, ad esempio) le dinamiche tra anonimato e sicurezza, tra la responsabilità delle piattaforme e quella degli utenti (su cui avevo fatto un lavoro di ricerca all’università nel lontano 2002, per dire) sono tutt’altro che risolte oggi, anzi si aggravano per il potere che le Big Tech sono andate assumendo e per le tensioni geopolitiche che corrono lungo le dorsali digitali (pensiamo anche a US e TikTok).
L’anonimizzazione totale e la progettazione di sistemi che non possono essere accessibili in alcun modo dalle forze dell’ordine sembrano pensieri molto accattivanti ma se poi siamo noi in prima persona ad essere vittime di un crimine o di un abuso, siamo così contenti di questa impunità? Difficile.
Si tratta del classico tema di volere la moglie (o il marito) ubriaca e la botte piena di cui ha parlato Matteo Flora nel video qui sotto.
E’ un concetto che gli stessi capi delle grandi aziendali digitali faticano a digerire, ma quando una piattaforma opera nello spazio economico di un paese (che sia l’Europa o il Brasile nei nostri esempi) ci sono una serie di norme, anche precedenti a quelle più strutturate come il Digital Service Act, che devono essere seguite; si possono impugnare legalmente se ritenute eccessive ma non è possibile ignorarle (e se lo si fa si va incontro alle diverse conseguenze civili e penali).
Non rispettarle è possibile se si abbandona il mercato di riferimento (per altro più facile a dirsi che a farsi) ma dall’altro lato solo l’applicazione di sanzioni reali rende veramente efficace il principio di far rispettare le leggi. La lista di chi ci ha già sbattuto contro, specie in Europa, è lunga: Meta, X, Apple, Uber e un po’ tutti i big digitali.
Sempre restando sul tema libertà versus limitazioni, secondo il Global Risk 2024 Report del World Economic Forum la disinformazione è, per gli esperti, la prima minaccia di qui a due anni, seguita al secondo posto dagli eventi climatici estremi e al terzo dalla “polarizzazione sociale” (molto alimentata dalla tecnologia), per proseguire con il quarto posto si ancora un tema collegato come l’insicurezza cyber (al quinto i conflitti armati tra Stati, al sesto posto la mancanza di opportunità economiche, seguita dall’inflazione e dalle migrazioni involontarie. Al nono posto la decrescita e, infine, al decimo posto, l’inquinamento).
Purtroppo abbiamo già visto questo rischio all’opera ad esempio su Twitter in passato, aggravato ora su X, mentre la crescente facilità di creazione di deepfake (si veda l’ultima versione di Grok, per altro molto performante) e il loro uso su larga scala sta rendendo più inaffidabile la percezione della realtà, fino a mettere in crisi tecnologie di sicurezza che sembravano rodate.
Tutto questo senza poi considerare gli incidenti involontari legati alle allucinazioni delle AI e i bias che vengono propagati da queste tecnologie in materia di pregiudizi, diversity and inclusion.
Nuovamente, è la tecnologia la responsabile? No, è il suo uso a dover essere sotto la lente, e se la regolamentazione deve limitare chi coscientemente ne fa un uso negativo dall’altra parte molto importante è educare all’uso chi invece potrebbe cadere in problematiche dovute alla scarsa conoscenza.
USARE BENE LA TECNOLOGIA NON E’ UN CONCETTO AUTOMATICO
Giuseppe Mayer ha fatto un ottimo esempio su Linkedin, nello specifico rispetto alla AI, quello dei fazzolettini del bar che all’apparenza sono inutili perché non puliscono le mani ma che in realtà non nascono per questo ma per non sporcare, o altrimenti detto il loro scopo primario è quello di fungere da barriera tra le nostre mani e i cibi che stiamo per gustare (il che spiega che i baristi non sono tutti pazzi ad averli nei loro locali 😀).
Invece, Tom Fishbourne, a commento di una delle sue ultime vignette ha ricordato come, nel 1966, Abraham Maslow (sì, quella della piramide dei bisogni) aveva scritto in modo arguto che “se l’unico strumento che hai è un martello, è allettante trattare tutto come se fosse un chiodo.”
La domanda vera da porsi invece, come dice Raffaele Gaito in questo video, è quale sia il valore aggiunto che può dare l’artificial intelligence (ma direi anche qualsiasi altra tecnologia) alla singola soluzione che stiamo cercando.
Per fare un altro esempio, non è il metodo di pagamento che conta ma l’esperienza, non lo dico io, anche se sono estremamente d’accordo, ma Forrester Research in questo interessante podcast.
Sono scelte conseguenti alla comprensione all’obiettivo del cliente che deve essere al centro, concetto che nel nostro paese non è sempre limpido, specie su questo tema.
Come sempre, quindi, non si dovrebbe partire dalla tecnologia ma dalle persone e dai loro bisogni, seguendo uno schema, ad esempio quello della Signature Experience, che va alla semplificazione della vita fino all’esperienza super personalizzata.
Su LinkedIn, in un post che ho letto e poi non ho più ritrovato, un professionista discuteva di come un suo tesista avesse fatto uso di strumenti Ai per compilare la tesi, con un risultato ottimo. È da lodare per l’uso sapiente del tool o da punire per avere “barato”?
Secondo me, il punto chiave è sempre quello per cui la tecnologia ci deve aiutare a fare meglio ciò che sappiamo e liberare tempo rispetto alle cose a più basso valore aggiunto, per cui se nell’esempio in questione la AI aiuta una parte della stesura o fa altre cose che non sostituiscono il pensiero creativo, beh ci si può ragionare.
Quello che non è sano né accettabile invece è creare un mondo di persone che delegano anche il più banale dei task a queste tecnologie: al di là di non essere nemmeno ambientalmente sostenibile, ciò crea una dipendenza dal potere delle big tech e un blocco di tutte le attività in caso di indisponibilità del software che mi sembrano una regressione del pensiero umano.
La bella intervista di Vincos a Chiara Valerio che ho commentato qui.
Si potrebbe parlare ancora a lungo e con tanti esempi e riferimenti a cose che ho scritto in passato, ma credo che la sintesi possa essere che dalla comprensione della tecnologia nascano sia la capacità di non farne un uso inavvertito che crei dei danni sia possano scaturire anche gli elementi necessari a scrivere delle regole che ci proteggano tutti dagli utilizzi consapevolmente malevoli (perché non può essere tutto totalmente autogestito) senza limitare il potenziale fantastico di questi strumenti.
Che ne pensate?








1 Pingback